1
Além do Ponto de Corte do Treinamento: Por Que os LLMs Precisam de Conhecimento Externo
AI025Lesson 1: Foundations of RAG and Knowledge Base Construction
00:00

Um modelo de linguagem grande pode gerar linguagem fluentemente, mas fluência não é o mesmo que confiabilidade factual. A limitação fundamental de um LLM é sua dependência em memória paramétrica—conhecimento congelado no tempo no momento em que o treinamento terminou, conhecido como ponto de corte do treinamento.

Memória ParamétricaPesos CongeladosPonto de Corte: Dez 2023Risco de AlucinaçãoArquitetura RAGEvidência DinâmicaEm Tempo Real / PrivadoFundamentação

Por Que os LLMs Falham em Isolamento

O RAG existe porque muitas perguntas práticas dependem de informações que são privadas, recentes, versão, específicas de domínio, ou auditáveis. Sem conhecimento externo, o modelo sofre com:

  • Limitação Temporal: Incapacidade de saber eventos pós-treinamento.
  • Limitação de Acesso: Ausência de visibilidade sobre dados 'escuros' (documentos privados da empresa).
  • Limitação de Rastreabilidade: Falta de uma trilha auditável para responsabilidade profissional.
O Paradigma do Livro Aberto
Em vez de forçar o modelo a 'lembrar' tudo através de um re-treinamento dispendioso, mudamos a arquitetura para recuperar primeiramente evidências específicas de um corpus externo, permitindo que o LLM responda com essas evidências à vista. Isso fornece confiança com evidência em vez de confiança sem elas.